قادة الفكر
شفافية الذكاء الاصطناعي وضرورة النماذج مفتوحة المصدر

من أجل حماية الناس من الأضرار المحتملة للذكاء الاصطناعي، يضغط بعض المنظمين في الولايات المتحدة والاتحاد الأوروبي بشكل متزايد على السيطرة والتوازن على قوة نماذج الذكاء الاصطناعي مفتوحة المصدر. هذا الجزء يُحفز جزئيًا برغبة الشركات الكبيرة في التحكم في تطوير الذكاء الاصطناعي وتوجيه تطوير الذكاء الاصطناعي بطريقة تفيد них.
يخاف المنظمون أيضًا من وتيرة تطوير الذكاء الاصطناعي، حيث يقلقون من أن الذكاء الاصطناعي يتطور بسرعة كبيرة وأن هناك ليس هناك وقت كافٍ لوضع الحواجز لمنع استخدامه لأغراض خبيثة.
ميثاق حقوق الذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي في الولايات المتحدة، جنبًا إلى جنب مع قانون الذكاء الاصطناعي في الاتحاد الأوروبي، يدعم المبادئ المختلفة مثل الدقة والأمان وعدم التمييز والأمان والشفافية والمساءلة والقابلية للتفسير والقابلية للفهم وخصوصية البيانات. بالإضافة إلى ذلك، يتوقع كل من الاتحاد الأوروبي والولايات المتحدة أن تلعب المنظمات المعيارية، سواء كانت كيانات حكومية أو دولية، دورًا حاسمًا في وضع المبادئ التوجيهية للذكاء الاصطناعي.
في ضوء هذه الحالة، من الضروري السعي إلى مستقبل يتبنى الشفافية والقدرة على فحص ونقل نظام الذكاء الاصطناعي. هذا سيسمح للمطورين في جميع أنحاء العالم بفحص وتحليل وتحسين الذكاء الاصطناعي، لا سيما مع التركيز على بيانات التدريب والعمليات.
لتحقيق الشفافية في الذكاء الاصطناعي بنجاح، يجب أن نفهم خوارزميات اتخاذ القرار التي تدعمه، وبالتالي كشف الغموض حول نهج “ال盒ة السوداء” للذكاء الاصطناعي. تلعب النماذج مفتوحة المصدر والقابلة للتفتيش دورًا أساسيًا في تحقيق هذا الهدف، حيث توفر الوصول إلى الكود التحتية وهيكل النظام وبيانات التدريب لفحصها ومراجعتها. هذه الشفافية تعزز التعاون وتدفع الابتكار وتحمي ضد احتكار الشركات.
من أجل تحقيق رؤية مثل هذه، من الضروري تسهيل التغييرات السياسية والمبادرات الشعبية وتشجيع المشاركة الفعالة من جميع الأطراف المعنية، بما في ذلك المطورين والشركات والحكومات والجمهور.
الحالة الحالية للذكاء الاصطناعي: التركيز والسيطرة
في الوقت الحالي، يتسم تطوير الذكاء الاصطناعي، لا سيما فيما يتعلق بنماذج اللغة الكبيرة (LLMs)، بالمركزية والسيطرة من قبل الشركات الكبيرة. يثير هذا التركيز للقوة مخاوف بشأن إمكانية سوء الاستخدام ويثير أسئلة حول الوصول العادل وتوزيع المنافع العادلة لتقدم الذكاء الاصطناعي.
على وجه الخصوص، تفتقر النماذج الشهيرة مثل LLMs إلى بديلات مفتوحة المصدر خلال عملية التدريب بسبب الموارد الحاسوبية الواسعة المطلوبة، والتي تكون متاحة عادةً فقط للشركات الكبيرة. ومع ذلك، حتى لو ظلت هذه الحالة دون تغيير، فإن ضمان الشفافية فيما يتعلق ببيانات التدريب والعمليات أمر بالغ الأهمية لتسهيل الفحص والمساءلة.
أحدث إطلاق OpenAI لنظام ترخيص لنوع معين من الذكاء الاصطناعي تسبب في قلق وخوف من السيطرة التنظيمية، حيث يمكن أن يؤثر ليس فقط على مسار الذكاء الاصطناعي ولكن أيضًا على الجوانب الاجتماعية والاقتصادية والسياسية الأوسع.
الحاجة إلى شفافية الذكاء الاصطناعي
تخيل الاعتماد على تكنولوجيا تقوم باتخاذ قرارات مؤثرة في الحياة الشخصية للإنسان، ومع ذلك لا تترك أي أثر، ولا فهمًا للأساس المنطقي وراء تلك الاستنتاجات. هذا هو المكان الذي تصبح فيه الشفافية أمرًا ضروريًا.
أولاً وقبل كل شيء، الشفافية ضرورية وتعزز الثقة. عندما تصبح نماذج الذكاء الاصطناعي قابلة للملاحظة، فإنها تزرع الثقة في موثوقيتها ودقتها. بالإضافة إلى ذلك، الشفافية هذه ستجعل المطورين والمنظمات أكثر مساءلة عن نتائج خوارزمياتهم.
جوانب أخرى حاسمة للشفافية هي تحديد وتخفيف انحياز الخوارزمية. يمكن أن يتم حقن الانحياز في نماذج الذكاء الاصطناعي بطرق متعددة.
- العامل البشري: علماء البيانات معرضون لتعزيز انحيازاتهم الخاصة في النماذج.
- تعلم الآلة: حتى لو تمكن العلماء من إنشاء ذكاء اصطناعي موضوعي تمامًا، فإن النماذج ما زالت معرضة بشدة للانحياز. يبدأ تعلم الآلة ببيانات محددة، ثم يُترك لامتصاص بيانات جديدة وإنشاء مسارات تعلم جديدة واستنتاجات جديدة. هذه النتائج قد تكون غير مقصودة أو متحيزة أو غير دقيقة، حيث تحاول النموذج تطورها بشكل مستقل في ما يسمى “انجراف البيانات”.
من المهم أن نكون على دراية بمصادر الانحياز المحتملة هذه حتى يمكن تحديدها وتخفيفها. يمكن تحديد الانحياز عن طريق فحص البيانات المستخدمة في تدريب النموذج. هذا يشمل البحث عن أنماط قد تشير إلى التمييز أو عدم العدالة. طريقة أخرى لتخفيف الانحياز هي استخدام تقنيات إزالة الانحياز. يمكن أن تساعد هذه التقنيات في إزالة أو تقليل الانحياز من النموذج. من خلال الشفافية حول إمكانية الانحياز واتخاذ خطوات لتخفيفه، يمكننا مساعدة الذكاء الاصطناعي على استخدام方式 عادلة ومسؤولة.
تمكّن نماذج الذكاء الاصطناعي الشفافة الباحثين والمستخدمين من فحص بيانات التدريب وتحديد الانحيازات واتخاذ إجراءات تصحيحية لتصحيحها. من خلال جعل عملية اتخاذ القرار مرئية، تساعد الشفافية على السعي نحو العدالة ومنع انتشار الممارسات التمييزية. بالإضافة إلى ذلك، الشفافية ضرورية على مدى حياة النموذج كما هو مذكور أعلاه لمنع انجراف البيانات والانحياز وتخيلات الذكاء الاصطناعي التي تنتج معلومات كاذبة. هذه التخيلات شائعة بشكل خاص في نماذج اللغة الكبيرة، ولكنها موجودة أيضًا في جميع أشكال منتجات الذكاء الاصطناعي. تلعب رصد الذكاء الاصطناعي دورًا هامًا في ضمان الأداء والدقة للنماذج، مما يؤدي إلى إنشاء ذكاء اصطناعي أكثر أمانًا وموثوقية وأقل عرضة للأخطاء أو العواقب غير المقصودة.
ومع ذلك، تحقيق الشفافية في الذكاء الاصطناعي ليس بدون تحدياته. من الضروري تحقيق توازن دقيق لتلبية المخاوف مثل خصوصية البيانات والأمان والملكية الفكرية. هذا يتضمن تنفيذ تقنيات الحفاظ على الخصوصية وت












